GPT-OSS: OpenAI'nin "açık ağırlık" (mutlaka açık kaynaklı değil) modeli nasıl görünüyor?

5 Ağustos 2025'te OpenAI, OpenAI blogunda rakiplerine kıyasla gerçekten rekabetçi bir performans sunduğu, düşük maliyetli olduğu ve sonuçları önceki modellerin bazılarıyla neredeyse aynı seviyede olduğu açıklanan GPT-OSS'un iki versiyonunu yayınladı.
Blog yazısında, "Esnek Apache 2.0 lisansı altında mevcut olan bu modeller, akıl yürütme görevlerinde benzer büyüklükteki açık modellerden daha iyi performans gösteriyor, güçlü araç yetenekleri sergiliyor ve tüketici donanımlarında verimli dağıtım için optimize edilmiş." ifadeleri yer alıyor.
Şimdilik OpenAi'nin pazarlaması ve buradan itibaren GPT-OSS'un gerçekte ne olduğuna dair daha detaylı bir analiz.
Açık kaynak mı yoksa açık ağırlık mı?Az önce alıntılanan, modellerin “Esnek Apache 2.0 lisansı altında mevcut olacağı…” ifadesine rağmen, GPT-OSS, insanların inanabileceği gibi açık kaynaklı değil, yalnızca “açık ağırlık”tır; bu da tamamen farklı bir şeydir.
OpenAI, aslında GPT-OSS'nin Apache 2.0 lisansını yalnızca ağırlıklara uyguladı, diğer her şeye değil. Başka bir deyişle, OpenAI , bir sinir ağının eğitimden sonra nasıl tepki vereceğini tanımlayan parametreleri (ağırlıkları) herkese açık ve yeniden kullanılabilir hale getirmeye karar verdi, ancak örneğin eğitim için kullanılan yazılım bileşenlerinde aynı şeyi yapmadı.
Bu tercih, ticari açıdan tamamen meşru ve anlaşılır olsa da, kullanıcıların modele dahil olan her şeye erişebildiğini ima ederek kelimelerin anlamının genişletilmesine izin vermiyor. Bu nedenle, "Esnek Apache 2.0 lisansı kapsamındaki ağırlıklarla , bu modeller..." şeklinde yazmak daha doğru olurdu; bu üç kelime, cümlenin biçimini ve anlamının özünü kökten değiştiriyor.
GPT-OSS'un açık kaynaklı olmaması ne anlama geliyor?GPT-OSS, bir bütün olarak, Özgür Yazılım Vakfı tarafından tanımlanan kelimenin yasal anlamıyla ne "açık kaynaklı" ne de " özgür "dür ; bu da yazılım bileşenleri de dahil olmak üzere tamamen özgür olduğu anlamına gelir. Aksine, yazılım söz konusu olduğunda, GPT-OSS, OpenAI'nin nasıl oluşturulduğu ve nasıl yönetildiği üzerinde kontrol ve gizlilik sağladığı anlamında "tescilli" bir modeldir .
Bir yapay zeka platformu, aslında, çok kaba ve son derece (hatta aşırı) basitleştirilmiş bir şekilde, ham verilerden oluşan ve daha sonra bir veri kümesine dönüştürülen, modelin üzerinde çalıştığı veri kümesini oluşturmak ve yönetmek için kullanılan yazılım ve tam olarak " ağırlıklar " gibi birçok parçadan oluşur. Bahsedildiği gibi, yalnızca sonuncusu, "çalışmanın ve bu türev çalışmaların kaynak veya nesne biçiminde yeniden üretilmesine, türev çalışmalarının hazırlanmasına , herkese açık olarak görüntülenmesine, herkese açık olarak icra edilmesine, alt lisanslanmasına ve dağıtılmasına" izin veren Apache 2.0 lisansı altında yayınlanır.
"Esnekliğin" yalnızca ağırlıkların yeniden kullanımıyla ilgili olması çok önemlidir, çünkü eğer bunlar yalnızca yeniden kullanılabilir ve değiştirilebilirse, herkes modelin çalışma şeklini "özelleştirebilir", ancak bu yalnızca kısmen mümkün olabilir. Bu durum, "ince ayarlı" GPT-OSS modelleri oluşturup bunları ürün ve hizmet sunmak için kullanmadan önce iki kez düşünmemizi gerektirebilecek ciddi bir sorun teşkil etmektedir.
Açık ağırlık, güvenlik kontrolü ve jailbreakGPT-OSS'nin (kısmen) özelleştirilmiş versiyonlarını oluşturmanın yanı sıra, ağırlıklar üzerinde çalışmak, teoride, tasarımcıların öznel standartlara göre kabul edilemez bulduğu ve yasa tarafından zorunlu kılınmayan yanıtların üretilmesini engellemesi gereken modele yerleştirilmiş güvenlik kontrollerinin etkinliğini ortadan kaldırmamıza veya en azından azaltmamıza olanak sağlayacaktır.
GPT-OSS model kartının tanıtımı ve ardından daha detaylı olarak ikincisi , kimyasal, biyolojik, radyolojik ve nükleer alanlarla ilgili verilerin filtrelenmesine özellikle dikkat edildiğini vurgulamaktadır. Bu, modelin "kötü niyetli" bir iyileştirme gerçekleştirerek bile bu sektörlerde tehlikeli yanıtlar sağlama konusunda yüksek bir kapasiteye ulaşmasını önlemek içindir.
Bundan iki varsayımsal ve bir kesin sonuç çıkarılmış gibi görünüyor.
Birincisi, GPT-OSS'u yasadışı amaçlar için daha doğru hale getirmenin her durumda (son derece zor ama) mümkün görünmesidir (örneğin, doğruluğun istenmeyen şekilde geçersiz kılınması durumunda modeli "bozan" sistemler uygulanmadığı sürece).
İkincisi, daha önceki varsayıma dayalı olarak, hâlâ “karanlık tarafta” işlev gören bu daha az etkili ve yetenekli yasadışı modellerle ne gibi zararlar verileceğinin belirtilmemesidir.
Bu iki sorunun cevabı ne olursa olsun, deneysel kanıtların yokluğunda, herhangi bir iddia tamamen spekülatif olacaktır; aksine, aynı nedenlerden dolayı, tüm GPT-OSS doğruluklarının mümkün olmayacağı kesindir. Bu nedenle, modelin yasal niteliğinin daha fazla açıklığa kavuşturulması, ağırlıkların OpenAI tarafından bağımsız olarak belirlenen dar sınırlar içinde değiştirilebileceği ve dolayısıyla modelin "kısmen açık ağırlık" olduğu veya Apache 2.0 lisansının tam olarak uygulanabilir olmadığı hususlarının açıklığa kavuşturulması gerekecektir.
(Neredeyse) herkes bunu bu şekilde yapıyorSonuç olarak, GPT-OSS'un, tıpkı tescilli sürümleri ve (neredeyse) tüm rakiplerinin sürümleri gibi, çok geniş bir kullanıma izin verdiği açıktır (ve bazı açılardan açıktır) ancak her durumda onu oluşturanların tasarım tercihleriyle sınırlıdır ve bu kabul edilemezdir.
Bunun, yasal işlemden kaçınmak , yöneticilerin hoşuna gitmeyen bilgilerin yayılmasını sınırlamak ( DeepSeek örneğinde olduğu gibi ) veya her seferinde birisinin aracı (onu kullanan kişiyi değil) yasadışı veya rahatsız edici bir şekilde kullandığı için suçlaması durumunda ortaya çıkan kaçınılmaz toplumsal öfke dalgalarına kapılmamak için yapılmasının pek bir önemi yoktur.
Bir LLM derecesinin, birisinin bunu yasadışı eylemlerde bulunmak için kötüye kullanabileceği gerekçesiyle önceden kısıtlanması -sansürlenmesi-, tüm kullanıcıları potansiyel tehlikeler olarak ele almak ve dolayısıyla her durumda, hatta özel bir kuruluşun kendi kurallarına göre izlenmesi gerektiği anlamına gelir.
Haklı olarak, Apple ve Avrupa Komisyonu istemci taraflı tarama (yasadışı içerik gönderilmeden önce tüm kullanıcıların cihazlarında önleyici ve otomatik arama) hakkında konuşmaya başladığında bu yaklaşım tartışmalara ve protestolara yol açtı.
Eğer durum buysa, OpenAI ve diğer tüm yapay zeka şirketlerinin, başkalarının yasaklamasını istediğimiz şeyi yapmasına neden izin verilmesi gerektiği açık değildir.
Öte yandan, güvenlik kontrolleri olmayan bir modelin çok tehlikeli olduğuna dair geçerli bir endişe varsa, o zaman devletler, gündemleri kamu çıkarını (mutlaka ABD vatandaşı olmayan vatandaşların çıkarlarını) korumakla örtüşmeyen özel kuruluşlara devretmek yerine, bu kontrollerin kapsamını tanımlama sorumluluğunu üstlenmelidir.
La Repubblica